津市政法提醒:AI诈骗正在全国爆发
2023-05-30 16:50:45          来源:湖南法治报 | 编辑:樊芳 | 作者:唐蓉 龚雪儿         

湖南法治报讯(通讯员 唐蓉 龚雪儿)连日来,全国各地高频爆发使用智能AI技术进行电信诈骗的案件。相较于传统骗术,AI诈骗再度技术升级,换脸拟声技术发展导致其隐蔽性、迷惑性极强,受害者往往难以分辨。AI诈骗对个人财产,肖像权、知识产权等权益的侵犯不容低估,公众应注重个人信息保护,提高防范意识。

一是换脸拟声打造“熟人陷阱”。利用电话录音、社交平台视频等来提取声音、面部信息,通过智能AI换脸和拟声技术,制造假视频、假语音等骗取受害人信任后实施诈骗。以往,骗子的身份多是“未曾谋面的陌生人”,现在受害者基于对“熟人”的信任,加之已经通过语音对话或视频聊天核实身份,一般不会二次进行求证。

近日,包头市公安局电信网络犯罪侦查局发布一起使用智能AI技术进行电信诈骗的案件引爆网络,福州市某科技公司法人代表郭先生10分钟内被骗430万元。骗子通过智能AI换脸和拟声技术,佯装好友对他实施了诈骗。郭先生称,骗子从头到尾都没有提借钱的事情,并且在视频中确认了面孔和声音,因此才放松了戒备。

面对突如其来的电话请保持警惕,即使是来自你认识的人,来电显示的号码也有可能是伪造的。网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。如果有人自称“熟人”、“领导”通过社交软件、短信以各种理由诱导你汇款,务必通过电话、见面等途径核实确认,不要未经核实随意转账汇款,不要轻易透露自己的身份证、银行卡、验证码等信息。

二是合成不雅视频施加“舆论压力”。非法截取受害人面部信息,通过AI换脸技术合成不雅照片和视频,利用受害人破财消灾、畏惧舆论的心态,达到敲诈钱财的目的。不久前,有一名拥有百万粉丝的网红博主称自己的“脸被偷”,有人用AI换脸软件制作她的不雅视频。这就是灰色产业链利用AI换脸合成不雅视频敲诈勒索诈骗的典型套路,以恐吓在网络上、生活中公开受害者不雅视频、发动水军到受害者各种网络平台账号下造“黄谣”等方式实施敲诈勒索。遇到此类诈骗,请第一时间报警,警方在依法处置警情的同时也会保护你的隐私。

三是智能筛选定制“诈骗剧本”。骗子利用AI分析公众发布在社交网络的各类信息,根据所要实施的骗术筛选目标人群,短时间内便可有针对性地定制诈骗脚本。此类诈骗能精准拿捏受害人需求,诱导受害者逐步落入剧本设定好的陷阱。如实施情感诈骗时,可以筛选出经常发布感情类信息的人群;实施金融诈骗时,可以筛选出经常搜索投资理财信息的人群。在网络上如遇陌生人能完全“投其所好”,请提高警惕!因为你很有可能早已经被不法分子盯上。

一审:曾金春

二审:伏志勇

三审:万朝晖

责编:樊芳

来源:湖南法治报

关于我们-商务合作-法律声明-联系我们
广告热线:0731-84802118 湖南法治报官网ICP备案号:湘ICP备19000193号-3 版权所有:湖南金鹰报刊社有限责任公司《湖南法治报》 未经授权禁止复制或建立镜像